Desde el advenimiento de Internet y con el desarrollo exponencial del acceso a la red, la creciente dependencia de los usuarios de la conectividad de red, el nacimiento de aplicaciones en línea cada vez más populares, el aumento gigantesco de la cantidad de información depositada en la red, el creciente poder de los lenguajes de programación orientados a la web, el nacimiento y desarrollo exponencial de los portales de redes sociales, la necesidad de movilidad de las personas.
Todo esto ha creado a lo largo de los años la necesidad de desarrollar infraestructuras de hardware cada vez más potentes, el número y tamaño de los centros de datos en el mundo ha crecido drásticamente, la capacidad de la red para transmitir datos ha crecido considerablemente, las interconexiones, las tecnologías de gestión de redes, la potencia de las CPU, y mucho más han crecido.
Del mismo modo, la necesidad de personal altamente cualificado para diseñar infraestructuras de HW, para mantenerlas, para diseñar aplicaciones, portales, bases de datos, en definitiva, el mercado en torno a Internet se ha convertido en una economía en sí misma.
En los últimos dos o tres años, las fusiones entre los gigantes de la tecnología de la información han determinado en parte los índices de Wall Street, logrando contener la caída de los mercados.
El advenimiento y desarrollo exponencial de la virtualización que ahora se ha extendido a todas las Fortune 500, pero que todavía lucha por penetrar en las pymes solo por la inversión inicial necesaria, nos ha acostumbrado a nuevos paradigmas de uso de la infraestructura HW de un centro de datos, trayendo ventajas administrativas y automatismos cada vez más fáciles de implementar, además de las conocidas ventajas económicas de reducir el TCO.
En los últimos dos años, la aparición de la «tendencia» del Cloud Computing, que hace que la virtualización de los centros de datos penetre en las pymes en forma de uso de consumo de potencia computacional, ha cambiado aún más el paradigma de uso de la infraestructura HW, haciéndola aún más simple, más manejable, más elástica y más barata.
Estas revoluciones aún en marcha, que transformarán todas las realidades actuales de los centros de datos durante los próximos 5 años (datos de IDC y Gartner), si por un lado traerán enormes beneficios de desarrollo de la innovación a todas las empresas más pequeñas, por otro lado crearán un vacío en el personal administrativo que anteriormente trabajaba en infraestructuras, ya que ya no son tan necesarias como antes. Todos los conocimientos de los administradores de sistemas, desarrolladores, arquitectos de soluciones, todas las certificaciones, comienzan a perder valor, todas las enseñanzas universitarias de la mayoría de las universidades ya no servirán de nada. Los ingenieros informáticos que no hayan sido seguidos por profesores en sintonía con los tiempos se verán obligados a actualizarse antes de entrar en el mundo laboral.
Pensemos en realidades como wikipedia con las siguientes estadísticas:
- 50.000 solicitudes HTTP por segundo
- 80.000 consultas SQL por segundo
- 7 millones de usuarios registrados
- 18 millones de objetos de página en la versión en inglés
- 250 millones de enlaces a páginas
- 220 millones de revisiones
- 1,5 terabytes de datos comprimidos
Está respaldado por
- 200 servidores de aplicaciones
- 20 servidores de bases de datos
- 70 servidores de caché
- Acerca de 4 administradores de sistemas
O facebook:
- Número de servidores MySQL: 1.800
- Número de DBAs de MySQL – 2
- Número de servidores web: 10.000
- Número de servidores Memcached: 805
Con 900 empleados cuya distribución en administradores de sistemas se desconoce.
En muchos de estos casos extremos donde la administración, expansión y mantenimiento de la flota pondría en crisis a los equipos más experimentados, se ha logrado agilizar y automatizar todos los trámites relacionados con la gestión del crecimiento de potencia requerido.
Por ejemplo, el caso de Amazon, reportado en un post anterior, el enorme crecimiento del comercio electrónico ha dado lugar a la necesidad de una mayor manejabilidad en la administración de sistemas mediante la creación de la infraestructura de computación en la nube internamente que luego ha resultado ser un excelente producto de venta.
Computación sin humanos
A corto plazo, la prueba de mayor eficiencia de las infraestructuras tolerantes a fallos será medir el factor humano en su gestión o, posiblemente, la falta del mismo. En un futuro próximo veremos ordenadores e infraestructuras que ya no necesitarán de los humanos para su gestión y desarrollo. Aquí está el título de computación sin humanos.
Obviamente, el ser humano interviene en el diseño e implementación de la infraestructura capaz de gestionarse y crecer por sí mismo.
Pero echemos un vistazo más de cerca a lo que significan estos términos, comenzando con una presentación de Lew Tucker, vicepresidente y director de tecnología de la Iniciativa de Computación en la Nube SUN.
Computación Autonómica
Ahora echemos un vistazo al centro de investigación de IBM , donde se ha investigado en el campo de la computación autónoma durante años. Hay que decir que teorizar es bueno, pero dejarse superar por aquellos que empezaron a investigar mucho más tarde directamente en el campo es triste.
Quiero informar aquí una parte de todas las soluciones que hemos evaluado o solo estudiado o solo seguido el desarrollo durante mucho tiempo.
VMWare : vCloud. Una extensión de las soluciones de virtualización de la infraestructura vCenter, que con elementos como el Orchestrator, es posible a través de la definición de flujos de trabajo para programar acciones a eventos, como se mencionó en un post anterior
Citrix : Centro de nube de Citrix. Una solución de software de hardware versátil que se puede gestionar a través de herramientas como el estudio de flujo de trabajo, adecuada para programar acciones para eventos registrados en la infraestructura
Novell: PlateSpin Orchestrate (nombre reciente nacido de la adquisición de PlateSpin). Un sistema capaz de automatizar la adquisición de recursos a través de flujos de trabajo diseñados caso por caso.
Cisco : Computación unificada. Una infraestructura ya mencionada en otros posts antiguos (1,2), capaz de gestionar de forma fácil y elástica todo un centro de datos
Amazon : Escalabilidad automática. Una serie de servicios web que, una vez programados correctamente, permiten a una aplicación aumentar y disminuir los recursos computacionales en función del tráfico registrado.
Estos ejemplos comerciales (hay muchas otras soluciones de código abierto), surgen del concepto clave de poder programar las acciones a realizar en base a eventos registrados (Orchestration, WorkFlow), por ejemplo una sobrecarga de solicitudes en un servidor web requiere un segundo servidor web y un balanceador de carga, una sobrecarga en un servidor db requeriría la activación de un segundo servidor db con una sincronización de replicación de datos, etc etc.
Pero la computación autónoma incluye otras características que veremos en un futuro próximo, la inteligencia artificial, capaz de predecir el aumento o disminución de la carga en base a la experiencia registrada por el sistema; Liberar o agregar recursos cuando aún no sean necesarios, porque se espera que lo sean.